在 AI 技术中,再遭用有一个术语叫“AI幻觉”,户投由于大型语言模型只能尽力猜测下一个最有可能出现的诉输WhatsApp%E3%80%90+86%2015855158769%E3%80%91smittybilt%20hardtop%20hoist%20instructions单词,但并不是入自实际理解上下文内容,因此它们经常会凭空捏造内容,名字例如完全不正确的被变医疗建议或是像是编造的“小常识”。然而,成罪这些虚假信息并非完全无害,再遭用实际上你甚至能以此起诉公司。户投 最近,诉输一位名叫 Arve Hjalmar Holmen 的入自WhatsApp%E3%80%90+86%2015855158769%E3%80%91smittybilt%20hardtop%20hoist%20instructions挪威男子就在与 ChatGPT 交谈时,在输入自己的名字名字后发现,ChatGPT编造了一个谎言,被变称他杀死了自己的成罪儿子,并被判处了 21 年监禁。再遭用他感到十分震惊,因为自己竟然被 AI 编造了子虚乌有的罪行,而且 ChatGPT 还围绕这个“事实”编造了他“完整的一生”。 隐私权倡导组织Noyb 很快介入。该组织告诉媒体 TechCrunch,他们调查了ChatGPT为何会输出这些指控,并检查是否有人犯下了与该名字相似但犯下的严重罪行。最终,他们没有找到任何实质性的证据,因此ChatGPT 输出令人毛骨悚然的指控背后的“原因”仍不清楚。 聊天机器人的底层AI 模型已经更新,现在它不再重复诽谤性指控。然而,Noyb之前曾以ChatGPT 输出有关公众人物的不准确信息为由提出投诉,但并不满足于就此了结。该组织现已向Datatilsynet(挪威数据保护局)提出投诉,理由是ChatGPT 违反了欧盟的《一般数据保护法规》(GDPR)。 根据欧盟法律第5(1)(d) 条,处理个人数据的公司必须确保其准确性——如果不准确,则必须更正或删除。 Noyb 认为,仅仅因为ChatGPT 停止了对Holmen 的污蔑,并不意味着数据已被删除。 目前,Noyb 要求 Datatilsynet 命令 OpenAI 删除有关Holmen 的不准确数据,并确保该公司确保ChatGPT 不会产生关于其他人的恐怖故事。OpenAI目前的做法只是在每个用户会话底部以小字体显示免责声明“ChatGPT可能会犯错。请考虑检查重要信息”。
